Actualité

IA

Vous utilisez une de ces deux IA ? Toutes vos conversations sont probablement dans la nature

Par Vincent Lautier - Publié le

Deux fuites massives viennent de toucher des chatbots IA populaires. OmniGPT a vu 34 millions de messages publiés sur un forum de hackers, et l'app Chat & Ask AI a exposé 300 millions de conversations à cause d'une base de données mal configurée. Avec 25 millions d'utilisateurs concernés, c'est un record.

Vous utilisez une de ces deux IA ? Toutes vos conversations sont probablement dans la nature


OmniGPT, 34 millions de lignes en libre-service



OmniGPT, c'est une plateforme qui regroupe plusieurs modèles d'IA (ChatGPT-4, Claude, Gemini, Perplexity, Midjourney) dans une seule interface. Un agrégateur assez populaire, avec intégration WhatsApp et outils de collaboration. Sauf que voilà : un pirate qui se fait appeler "Gloomer" a publié sur BreachForums, un forum bien connu du milieu, l'intégralité de la base. 30 000 adresses e-mail, des numéros de téléphone, plus de 34 millions de lignes de conversation et, dans le lot, des clés API, des identifiants, des documents personnels et même des captures d'écran WhatsApp. Les utilisateurs touchés sont principalement situés au Brésil, en Inde, en Italie, au Pakistan et en Chine.

Le plus gênant, c'est ce qu'on trouve dans les conversations elles-mêmes : des documents universitaires, des rapports de marché, des certificats officiels. Tout ce que les gens envoient à un chatbot en pensant que c'est confidentiel. OmniGPT n'a toujours pas réagi publiquement.

Vous utilisez une de ces deux IA ? Toutes vos conversations sont probablement dans la nature


Chat & Ask AI, 300 millions de messages à ciel ouvert



L'autre fuite est encore plus massive par les chiffres. Chat & Ask AI, une app développée par le studio turc Codeway et téléchargée plus de 50 millions de fois sur l'App Store et Google Play, laissait traîner sa base de données Firebase sans aucune protection. Un chercheur en sécurité surnommé Harry a découvert que les règles de sécurité Firebase étaient tout simplement configurées en accès public. N'importe qui avec l'URL du projet pouvait lire, modifier ou supprimer les données sans s'authentifier.

Résultat : 300 millions de messages, l'historique complet des conversations, les modèles utilisés et les réglages des 25 millions d'utilisateurs étaient accessibles. Codeway a corrigé le problème en quelques heures après avoir été prévenu. Mais Harry a aussi scanné 200 autres apps iOS et a trouvé que 103 d'entre elles avaient le même souci de configuration Firebase. Un registre des apps touchées est disponible en ligne.

Vous utilisez une de ces deux IA ? Toutes vos conversations sont probablement dans la nature


Un problème qui dépasse ces deux apps



Ce ne sont pas ChatGPT, Claude ou Gemini qui ont été piratés ici. Ce sont des apps tierces, des intermédiaires qui utilisent ces modèles en se branchant dessus. Et c'est justement le problème : ces agrégateurs attirent des millions d'utilisateurs avec des interfaces parfois pratiques et des prix attractifs, mais leur niveau de sécurité est parfois celui d'un projet étudiant. Firebase mal configuré, c'est clairement une erreur de débutant. Et pourtant, plus de la moitié des apps iOS testées par le chercheur avaient cette faille.

On en dit quoi ?



C'est quand même un peu flippant de se dire que tout ce qu'on confie à un chatbot peut se retrouver en ligne. On y envoie des documents perso, des bouts de code avec des identifiants dedans, parfois des infos médicales. Et là, ce n'est pas une faille sophistiquée : c'est une porte d'entrée grande ouverte depuis le début. Si vous utilisez un agrégateur IA que vous ne connaissez pas bien, prudence. J'aurais tendance à m'en tenir aux apps officielles d'OpenAI, d'Anthropic ou de Google, au moins pour les conversations sensibles. Ça ne garantit pas le risque zéro, mais c'est quand même un autre niveau.